Wybierz język

Polish

Down Icon

Wybierz kraj

Mexico

Down Icon

Neuroproteza pozwala osobie chorej na SLA „mówić” i „śpiewać” w czasie rzeczywistym.

Neuroproteza pozwala osobie chorej na SLA „mówić” i „śpiewać” w czasie rzeczywistym.

Jednym z niszczycielskich skutków stwardnienia zanikowego bocznego (ALS) jest niezdolność osób cierpiących na tę chorobę do komunikowania się. Zamknięci we własnych ciałach i niezdolni do komunikowania się, tak niektórzy pacjenci opisują tę chorobę.

Chociaż nie ma metod leczenia, które mogłyby odwrócić lub złagodzić chorobę, na szczęście technologia próbuje złagodzić odosobnienie tych osób za pomocą technologii. Ta pionierska technologia umożliwiła osobie z ALS mówienie w czasie rzeczywistym.

Do tej pory używane systemy były podobne do wiadomości tekstowych. Nowy system, zaprezentowany w czasopiśmie Nature , pozwala na bardziej naturalne konwersacje.

Chociaż jest to tylko jeden przypadek — uczestnik jest zapisany do badania klinicznego BrainGate2 w UC Davis Health — jego zdolność do komunikowania się za pomocą komputera była możliwa dzięki eksperymentalnemu interfejsowi mózg-komputer (BCI). Nowa technologia może natychmiast przełożyć aktywność mózgu na mowę, gdy dana osoba próbuje mówić, skutecznie tworząc cyfrowy kanał głosowy.

System pozwalał pacjentowi „rozmawiać” z rodziną w czasie rzeczywistym za pośrednictwem komputera, zmieniać intonację i „śpiewać” proste melodie.

Sergey Stavisky, główny autor artykułu, porównuje to do rozmowy głosowej w czasie rzeczywistym. W ten sposób użytkownicy neuroprotez będą mogli aktywniej uczestniczyć w rozmowie. Na przykład będą mogli przerywać, a inni będą mniej skłonni do przypadkowego przerywania im, powiedział Stavisky.

Dekodowanie sygnałów mózgowych leży u podstaw nowych technologii

Badany interfejs mózg-komputer (BCI) składa się z czterech mikroelektrod wszczepianych chirurgicznie w obszar mózgu odpowiedzialny za produkcję mowy.

Urządzenia te rejestrują aktywność neuronów w mózgu i przesyłają dane do komputerów, które interpretują sygnały i rekonstruują głos.

„Główną przeszkodą w syntezie mowy w czasie rzeczywistym był brak wiedzy, kiedy i jak osoba z utratą mowy próbuje mówić” — mówi Maitreyee Wairagkar, pierwsza autorka badania. „Nasze algorytmy mapują aktywność neuronalną na pożądane dźwięki w każdym momencie. Pozwala nam to syntetyzować niuanse mowy i dać uczestnikowi kontrolę nad rytmem jego głosu BCI”.

Pacjent korzystający z interfejsu Rada Regentów Uniwersytetu Kalifornijskiego

Interfejs mózg-komputer był w stanie przetłumaczyć sygnały neuronowe uczestnika badania na mowę słyszalną, odtwarzaną przez głośnik bardzo szybko: w ciągu jednej czterdziestej sekundy. To krótkie opóźnienie jest podobne do opóźnienia, którego doświadcza osoba, gdy mówi i słyszy swój własny głos.

Technologia ta pozwalała również uczestnikowi mówić nowe słowa (słowa, których system jeszcze nie znał) i używać wykrzykników. Był w stanie modulować intonację swojego generowanego komputerowo głosu, aby zadać pytanie lub podkreślić określone słowa w zdaniu.

Uczestnik podejmował również kroki mające na celu urozmaicenie wysokości dźwięku poprzez śpiewanie prostych, krótkich melodii.

Proces natychmiastowego tłumaczenia aktywności mózgu na mowę syntetyczną ułatwiają zaawansowane algorytmy sztucznej inteligencji.

Autorzy wyjaśniają, że algorytmy nowego systemu zostały wytrenowane na danych zebranych, gdy uczestnik został poproszony o próbę wypowiedzenia zdań wyświetlanych na ekranie komputera. Dało to badaczom informacje o tym, co uczestnik próbował powiedzieć.

„Nasz głos jest częścią tego, co definiuje nas jako ludzi. Utrata zdolności mówienia jest druzgocąca dla osób żyjących z chorobami neurologicznymi” — mówi David Brandman, neurochirurg, który wykonał implant u uczestnika.

Wyniki tych badań dają nadzieję tym, którzy chcą mówić, ale nie mogą. Jednak naukowcy zauważają, że chociaż wyniki są obiecujące, neuroprotezy mózg-mowa są wciąż na wczesnym etapie.

abc

abc

Podobne wiadomości

Wszystkie wiadomości
Animated ArrowAnimated ArrowAnimated Arrow